패권: 누가 AI 전쟁의 승자가 될 것인가

  • 2025-08-20 (modified: 2025-09-10)
  • 출판일: 2024-09-10
  • 저자: Parmy Olson

샘 알트먼데미스 허사비스의 여정을 중심으로 2000년 이후 AI 개발 경쟁의 역사를 담아낸 책.

Prologue

지금까지 경험하지 못했던 속도:

저는 기술 산업에 대해 15년 동안 글을 써 왔지만 최근 2년 사이에 인공지능 분야가 변화한 만큼 빠르게 발전하는 분야를 본 적이 없습니다.

In the fifteen years that I’ve written about the technology industry, I’ve never seen a field move as quickly as Artificial intelligence has in just the last two years.

누구는 유토피아를 얘기하고 누구는 멸망을 얘기하지만, 이런 극단적 예측은 당면한 현실의 문제를 가릴 뿐이다:

많은 AI 개발자들은 이 기술이 유토피아로 가는 길을 약속한다고 말합니다. 다른 이들은 AI가 우리 문명의 붕괴를 초래할 수 있다고 주장하기도 합니다. 하지만 이러한 공상 과학 시나리오들은 현실에서 AI로 인해 야기되는 교묘한 문제들로부터 우리의 주의를 분산시켰습니다. AI는 인종차별을 영속시키고 전체 예술 산업을 위협하는 등의 문제를 일으키고 있습니다.

Many AI builders say this technology promises a path to utopia. Others say it could bring about the collapse of our civilization. In reality, the science fiction scenarios have distracted us from the more insidious ways AI is threatening to harm society by perpetuating racism, threatening entire creative industries, and more.

소수 기술 업계의 막강한 영향력:

이 보이지 않는 힘의 배후에는 AI 개발의 통제권을 장악하고 더 강력하게 만들기 위해 경쟁하는 기업들이 있습니다. 성장에 대한 끝없는 갈증에 이끌려 그들은 원칙을 무시하고 제품에 대해 대중을 오도하며, 스스로를 매우 의심스러운 AI 관리자의 길로 들어서게 만들었습니다.

역사상 오늘날의 기술 대기업만큼 많은 권력을 축적하거나 많은 사람에게 영향을 미친 조직은 없었습니다. 구글은 전 세계 인터넷 사용자의 90%에 대한 웹 검색을 수행하고, 마이크로소프트 소프트웨어는 컴퓨터를 사용하는 인류의 70%가 사용합니다. … AI의 미래는 단 두 사람, 샘 올트먼데미스 허사비스에 의해 쓰여졌습니다. … 올트먼 덕분에 세상은 챗GPT를 갖게 되었고, 허사비스 덕분에 우리는 그것을 그토록 빨리 얻을 수 있었습니다.

Behind this invisible force are companies that have grabbed control of AI’s development and raced to make it more powerful. Driven by an insatiable hunger to grow, they’ve cut corners and misled the public about their products, putting themselves on course to become highly questionable stewards of AI.

No other organizations in history have amassed so much power or touched so many people as today’s tech giants. Google conducts web searches for 90 percent of Earth’s internet users, and Microsoft software is used by 70 percent of humans with a computer. … AI future has been written by just two men: Sam Altman and Demis Hassabis. … Altman was the reason the world got ChatGPT. Hassabis was the reason we got it so quickly.

독과점이 야기하는 문제:

AI 분야의 권력 집중은 경쟁을 감소시키고 사생활에 대한 새로운 침해와 새로운 형태의 인종적 편견 및 성 편견을 초래할 것입니다. 이미 오늘날, 인기 있는 AI 도구에 여성 이미지를 생성해 달라고 요청하면 섹시하고 노출이 심한 옷을 입은 모습으로 만들고, 사실적인 CEO 이미지를 요청하면 백인 남성 이미지를 생성하며, 범죄자를 요청하면 종종 흑인 남성 이미지를 생성할 것입니다.

The concentration of power in AI would lead to reduced competition and herald new intrusions into private life and new forms of racial and gender prejudice. Already today, if you ask a popular AI tool to generate images of women, it’ll make them sexy and scantily clad; ask it for photorealistic CEOs, and it’ll generate images of white men; ask for a criminal, and it will often generate images of Black men.

에디슨 vs. 웨스팅하우스 사례와의 유사성:

두 사람의 여정은 2세기 전 에디슨웨스팅하우스라는 두 기업가가 전쟁을 벌였던 것과 크게 다르지 않았습니다. … 결국 웨스팅하우스의 더 효율적인 전기 표준이 세계에서 가장 대중화되었지만, 그는 소위 ‘전류 전쟁’에서 승리하지 못했습니다. 승자는 제너럴 일렉트릭이었습니다.

기업의 이해관계가 올트먼허사비스로 하여금 더 크고 강력한 모델을 내놓도록 압박하면서 거대 기술 기업들이 승자로 부상했으며, 이번 경쟁의 목표는 바로 우리 자신의 지능을 복제하는 것이었습니다.

The pair’s journey was not all that different from one two centruies ago, when two entrepreneurs named Thomas Edison and George Westinghouse went to war. … In the end, Westinghouse’s more efficient electrical standard became the most popular in the world. But he didn’t win the so-called War of the Currents. General Electric did.

As corporate interests pushed Altman and Hassabis to unleash bigger and more powerful models, it was the tech titans who came out as the winners, only this time the race was to replicate our own intelligence.

책의 구성:

이 책의 후반부에서는 그러한 위험들을 설명하지만, 우선 우리가 어떻게 여기까지 오게 되었는지, 그리고 선한 의도로 AI를 만들려 했던 두 혁신가의 비전이 어떻게 결국 독점의 힘에 의해 짓밟혔는지를 설명하겠습니다.

The second half of this book lays out those rissks, but first I’ll explain how we got here, and how the visions of two innovators who tried to build AI for good were eventually ground down by the forces of monopoly.

Act 1. The Dream

Chapter 1. High School Hero

온라인 공간의 힘에 대한 깨달음.

AOL 채팅방은 LGBTQ 커뮤니티에 매우 중요했기 때문에, 올트먼이 14살이었던 1999년에는 채팅방의 약 3분의 1이 동성애 관련 주제에 집중되어 있었습니다. 그는 16살 때 부모님에게 커밍아웃했습니다. 그의 어머니는 충격을 받았습니다.

AOL chat rooms were so significant to the LGBTQ community that by 1999, when Altman was founteen, about a third of its rooms were focused on gay topics. When he was sixteen, he came out to his parents. His mother was shocked.

리더십:

그는 자신이 감당할 수 있는 한 많은 리더십 역할을 맡았습니다.

He stepped up to as many leadership roles as he could manage.

권력과 지원 네트워크에 대한 깨달음.

올트먼은 학교를 그만두면서 혹독한 교훈을 얻었습니다. 야심 찬 아이디어가 있다면 항상 비난하는 사람들이 있기 마련이며, 해결책은 권력과 권위를 가진 사람들과 손을 잡고 자신을 지지해 줄 네트워크를 주변에 구축하는 것이라는 점이었습니다.

Altman left school with a hard lesson. If you had ambitious ideas, there would always be some haters. The solution was to align yourself with those who had power and authority and to surround yourself with a support network.

포커를 즐기며 블러핑과 심리조작 기술을 갈고 닦음.

그는 산호세의 유명한 카지노에서 몇 시간씩 포커를 치며 심리적 조종과 영향력 기술을 연마했습니다. 포커는 다른 사람들을 관찰하고 때로는 자신의 패에 대해 상대를 오도하는 것이 전부인데, 올트먼은 블러핑과 상대의 미묘한 신호를 읽는 데 매우 능숙해져 대학 시절 생활비 대부분을 포커 상금으로 충당했습니다.

He’d play hours of poker at a popular casino in San Jose, honing his skills of psychological maneuvering and influence. Poker is all about watching others and sometimes misdirecting them about the strength of your hand, and Altman became so good at bluffing and reading his opponents’ subtle cues that he used his winnings to fund most of his living expenses as a college student.

스탠포드 AI 랩에서 Sebastian Thrun과 만남. AI의 존재론적 위험에 대한 고민을 시작.

그는 스탠포드 AI 연구소의 연구원이 되었습니다. … 이 AI 연구소는 막 다시 문을 열었으며, 책임자는 세바스찬 스런이었습니다. … 스런은 세인트루이스에서 온 이 진지한 청년이 AI의 의도치 않은 결과 가능성에 관심이 있다는 것을 알아차렸습니다. …

올트먼은 이 아이디어에 대해 한동안 깊이 생각했습니다. 공상 과학 소설의 팬으로서, 그는 이것이 인류가 외계 생명체와 접촉한 적이 없는 이유가 아닐까 생각했습니다. 아마도 다른 행성의 존재들도 AI를 만들려다 자신들의 창조물에 의해 전멸했을지도 모릅니다. 만약 그것이 피할 수 있는 일이었다면, 다른 이들이 위험한 종류를 만들기 전에 누군가가 더 안전한 AI를 만들었을 것입니다.

He became a researcher at Standord’s AI lab. … The AI lab had just been reopneed and its leader was Sebastian Thrun. … Thurn noticed that the serious kid from St. Louis was interested in the possibility of unintended consequences in AI. …

Altman mused on this idea for some time. As a science fiction fan, he wondered if this was why humans had never had contact with alien life. Perhaps beings on other planets had tried creating AI, too, and then been wiped out by their own creation. If that was aviodable, someone would have built safer AI before others created the dangerous kind.

Loopt, Y Combinator, 폴 그레이엄.

올트먼과 시보와이 콤비네이터라는 3개월짜리 프로그램에 참여하여 스타트업을 창업하기로 결정했습니다. … 실리콘 밸리의 대부분 투자자는 와이 콤비네이터를 해커들을 위한 어리석은 여름 캠프 정도로 치부했습니다. … 그레이엄과 다른 이들은 창업자들이 이러한 권한을 갖는 데는 그럴 만한 이유가 있다고 믿었습니다. 가장 똑똑하고 재능 있는 사람들이 장기적인 비전을 가지고 있을 때, 그들은 그것을 실행할 자유가 필요했습니다. … 실리콘 밸리는 괴짜 사상가들의 땅이었습니다. 이곳에서는 사업을 시작하는 것이 아니라, 제국을 건설하는 것이었습니다.

Altman and Sivo decided to join the three-month program, called Y Combinator, and create a start-up. … Most investors in Silicon Valley dismissed Y Combinator as a silly summer camp for hackers. … Graham and others believed founders had this authority for good reason. When the smartest and most talented people had a long-term vision, they needed the freedom to carry it out. … Silicon Valley was the land of crazy thinkers. You didn’t start a business here. You started an empire.

위험을 과장하는 전략.

많은 기업가들이 자신의 앱이 오용되는 것을 부정했을 테지만, 올트먼은 그 문제에 공개적으로 맞서려는 의지를 보였습니다. … 경력상 자살 행위처럼 보였던 것은 일종의 계산된 역심리학으로서, 그가 미래에 계속해서 사용하게 될 영리한 PR 전략이었습니다. 자신의 창조물이 가져올 최악의 시나리오에 대해 과도하게 우려함으로써, 올트먼은 제시카 레신과 같은 비평가나 언론인들을 무장 해제시킬 수 있었습니다. 그가 스스로를 비판했기 때문에, 그에게 던질 비난은 더 이상 남아있지 않았습니다.

While many entrepreneurs would have been in denial about their app’s misuse, Altman seemed intent on openly confronting the problem. … What looked like career suicide was a shrewd PR move that he would turn to again and again in the future as a kind of calculated reverse psychology. By becoming overly concerned with the worst-case scenario of his creation, Altman could disarm his critics or journalists like Jessica Lessin. There was nothing left to throw at him because, well, he’d done it to himself.

사업 실패.

2012년, 올트먼은 회사를 약 4,300만 달러에 한 기프트 카드 회사에 매각했는데, 이는 투자자들과 직원들에게 빚진 금액을 겨우 충당하는 수준이었습니다.

In 2012, Altman sold it to a gift-card company for about $43 million, barely covering what was owed to investors and his employees.

구세주 컴플렉스.

만약 샌프란시스코의 고급 사교 클럽인 배터리 클럽에 앉아 있는 사람들 무리에게 스마트폰을 던진다면, 적어도 세 명은 세상을 구하려는 사람일 것입니다. … 세인트루이스 출신의 이 젊은이는 스타트업 창업의 세계로 다시 뛰어들어, 세상을 바꾸겠다고 공언하는 회사들의 대명사가 될 정도로 실리콘 밸리 네트워크에 깊숙이 파고들 필요가 있었습니다. 그는 자신을 옛 멘토들보다 훨씬 더 심오한 버전으로 변화시킨 다음, 스탠포드 AI 연구소에서 고심했던 문제로 다시 돌아갈 것이었습니다. 이는 그가 다가오는 실존적 위협으로부터 인류를 구하고 그들에게 전례 없는 풍요를 가져다준다는 훨씬 더 거대한 목표를 추구하도록 이끌었습니다.

If you throw a smartphone at a group of people sitting inside the exclusive Battery Club in San Francisco, it’ll hit at least three trying to save the world. … The young St. Louis native needed to delve back into the world of building start-ups and plug himself so deeply into those Silicon Valley networks that he would become synonymous with the companies who proclaimed they were changing the world. He would transform himself into an even more profound version of his old mentors, and then dig back into what he’d been stewing on at the Stanford AI lab. That would lead him to chase an even grander objectie: saving humanity from a looming existential threat and then bringing them an abundance of wealth unlike anything they had seen.

Chapter 2. Winning, Winning, Winning

창업가+게임광:

그(데미스 하사비스)는 실리콘 밸리 기업가의 직업윤리를 가지고 있었고 게임에 집착했습니다. … 하사비스는 최고의 비디오 게임이 실생활의 축소판 역할을 하는 시뮬레이션이라고 생각했습니다. … 게임의 모든 오락적 가치에도 불구하고, 하사비스는 결국 게임을 사용하여 인간 의식의 비밀을 푸는 데 도움이 될 인공초지능을 만들고자 하는 강력한 열망에 사로잡히게 되었습니다.

He (Demis Hassabis) had the work ethic of Silicon Valley entrepreneur and was obsessed with playing games. … Hassabis thought the best video games were simulations that acted as microcosms of real life. … For all the entertainment value of games, Hassabis would eventually become gripped by a powerful desire to use them to create an Artificial Super Intelligence that would help him unlock the secrets of human consciousness.

체스에 대한 재능:

그는 네 살 때부터 아버지와 삼촌을 체스로 이겼고, 여섯 살에는 지역 체스 선수권 대회에서 또래 아이들 대부분을 압도했으며, 보드를 내려다보기 위해 쿠션이나 전화번호부 위에서 비틀거리며 서 있곤 했습니다.

He’d been beating his father and uncle at chess at the age of four, and by six, he was thrashing most kids his age at local chess championships, tottering on a cushion or telephone book to help him peer over the board.

마음의 확장:

잠자리에 들기 전, 그는 밤새 실행될 계산을 설정해두고 잠이 들었습니다. 다음 날 아침이면 계산이 끝나 있었습니다. 하사비스에게 이것은 하나의 계시였습니다. 그는 자신의 인지 노동을 스펙트럼에 떠넘겼던 것입니다. 컴퓨터는 그의 마음의 확장처럼 작동하고 있었습니다.

Before going to bed, he’d set up a calculation to run overnight and then go to sleep. The next morning, the calculations were done. For Hassabis, this was a revelation. He’d offloaded his cognitive labor to the Spectrum. The computer was acting like an extension of his mind.

샘 알트먼의 포커, 데미스 하사비스의 체스:

포커가 샘 알트먼에게 심리학과 사업에 대해 가르쳐 주었듯이, 체스는 하사비스에게 끝을 염두에 두고 전략을 세우는 방법을 가르쳐 주었습니다. 목표를 시각화하고 거꾸로 작업하는 방식입니다.

Just as poker taught Sam Altman about psychology and business, chess taught Hassabis how t o strategize by starting with the end in mind. You visualized a goal and worked backward.

체스보다 중요한 문제:

그가 방 안에서 체스판에 몸을 웅크리고 뉴런을 격렬하게 움직이는 다른 체스 천재들을 둘러보았을 때, 이 모든 토너먼트가 두뇌의 낭비라는 생각이 문득 들었습니다. 이들은 세계 최고의 전략적 사상가들이었습니다. 만약 그들이 더 큰 문제를 해결하는 데 힘쓴다면 어떨까? 그는 이제 14세 미만 세계 2위의 체스 선수였지만, 이것은 여전히 게임에 불과했습니다.

As he looked around the room at the other chess geniuses hunched over their boards, neurons churning, it dawned on him that this whole tournament was a waste of brainpower. These were some of the world’s top strategic thinkers. What if they worked on solving bigger problems? He was now the second-best chess player in the world under the age of fourteen, but this was still just a game.

Theory of everything:

고등학교를 2년 조기 졸업한 16세 때, 그는 노벨상 수상 물리학자 스티븐 와인버그가 쓴 ‘최종 이론의 꿈’이라는 책을 읽었습니다. … 하사비스는 과학자들이 이 이론의 틀을 찾는 데 별다른 진전을 이루지 못했다는 사실에 매료되었고, 이내 충격을 받았습니다. … 만약 그가 컴퓨터를 더 지능적으로, 즉 그의 마음을 더 유능하게 확장할 수 있다면, 아마도 컴퓨터는 과학자들이 우주에 대한 어려운 질문들을 해결하고 신성한 기원을 발견하는 데 도움을 줄 수 있을 것이라고 생각했습니다.

When he was sixteen, having just finished high school two years early, he read a book by Nobel Prize-winning physicist Steven Weinberg called Dreams of a Final Theory. … Hassabis was enthralled, and then shocked, to learn that scientists hadn’t been making much progress on finding this framework. … If he could make computers more intelligent, a more capable extension of his mind, perhaps they could help scientists crack those hard questions about the universe, even discover a divine origin.

Peter Molyneux와의 만남

하사비스는 비디오 게임 테스터로 시작하여 곧 불프로그의 창립자 피터 몰리뉴 직속의 레벨 디자이너 직책을 맡게 되었습니다. … 그 게임은 대성공을 거두었습니다. 파퓰러스가 500만 장 팔린 반면, 테마파크는 그보다 세 배 더 많이 팔렸습니다. 그 덕분에 하사비스는 마침내 케임브리지 대학교에 입학했을 때 유명 인사가 되었습니다. …

Hassabis started as a video game tester and quickly got the job of level designer directly under Bullfrog’s founder, Peter Molyneux. … The game was a hit. While Populous sold five million copies, Theme Park went on to sell three times more. That made Hassabis something of a celebrity when he finally arrived at Cambridge. …

케임브리지 대학교:

하사비스는 케임브리지 대학교에서 훗날 딥마인드에서 제품 개발을 이끌게 될 또 다른 컴퓨터 과학과 학생 벤 코핀을 비롯한 미래의 핵심 인물들을 만났습니다. 그는 이들과 함께 종교에 대해, 그리고 AI가 어떻게 세계적인 문제들을 해결할 수 있는지에 대해 이야기했습니다.

Hassabis met members of his future inner circle at Cambridge, including Ben Coppin, another computer science student who would go on to lead product development at DeepMind, and with whom he talked about religion and how AI could solve global problems.

게임 위한 AI가 아니라, AI를 위한 게임:

사람들에게 AI의 마법을 보여주려는 열정 속에서, 하사비스는 자신의 진정한 열정을 중심으로 게임을 만들려 하는 중대한 실수를 저질렀습니다. 만약 인간보다 더 똑똑한 기계를 만들고자 한다면, 그는 그 전략을 뒤집어야만 했습니다. 그는 AI에 더 깊이 파고들어야 했고, 훌륭한 게임을 만들기 위해 AI를 사용하는 대신, 훌륭한 AI를 만들기 위해 게임을 사용해야 했습니다.

In his passion to show people the magic of AI, Hassabis had made a crucial error in trying to build a game around his real passion. If he was going to make machines that were smarter than humans, he had to flip that strategy around. He needed to go deeper into Artificial intelligence, and instead of using it to make a great game, use games to make great AI.

Chapter 3. Save the Humans

Loopt 실패의 교훈:

알트만은 루프트의 실패를 통해 사람들이 원하지 않는 일을 억지로 시킬 수 없다는 것을 배웠다. 또한 그는 어려운 상황에서 감정적으로 거리를 두는 법이라는 더 개인적인 교훈도 얻었다.

The failure of Loopt had taught Altman that he couldn’t force people to do what they didn’t want to do. It also revealed a more personal lesson: how to emotionally disengage himself from difficult situation.

Y 콤비네이터의 위상 변화:

이제 벤처 캐피털 투자자들은 그 보잘것없던 해커 캠프에 대한 관점을 바꾸고, 그곳을 우수한 인터넷 기업을 생산하는 공장으로 보게 되었습니다.

By now, Venture capital investors had changed their view of the scrappy hacker camp and saw it as a factory for high-quality internet companies.

인간의 뇌를 대신하는 AI에 대한 꿈:

알트만은 컴퓨터 하드웨어가 매우 강력해지고 머신러닝 시스템이 매우 유능해지면서, 자신의 생애 중 어느 시점에는 그것들이 자신의 를 복제할 수 있을 것이라고 생각했습니다. … 만약 인간이 그리 특별한 존재가 아니라면, 컴퓨터로 복제될 수 있고 심지어 개선될 수도 있다는 의미였습니다. 어쩌면 자신이 그 일을 할 수 있을지도 모른다고요.

Altman considered that with computer hardware becoming so powerful, and machine learning systems so pacable, at some point during his lifetime they would probably be able to replicate his brain. … If humans weren’t so special, that meant they could be replicated by computer, even improved on. Maybe he could do that.

투자자로 변신. 창업 경험이 한 번 뿐이고 그나마도 망했지만 “창업가들의 구루” 행세를 하기 시작. 미국이나 한국이나 하는 짓들이 비슷하다:

알트만은 생명 과학부터 교육 소프트웨어 회사에 이르기까지 다양한 스타트업에 투자하기 위해 하이드라진 캐피털이라는 초기 단계 투자 회사를 설립했습니다. … 그러던 2014년, 선배 창업가인 폴 그레이엄은 자신의 부엌에서 알트만에게 물었습니다. “자네가 YC를 맡는 게 어떤가?” … 당시 알트만은 겨우 서른 살이었고, 그레이엄은 쉰을 바라보고 있었습니다. 하지만 알트만은 이미 새로운 그레이엄처럼 행동하고 있었습니다. 그는 경험이 거의 없는 분야를 포함한 모든 종류의 주제에 대해 통찰과 조언을 제공하며 자신만의 방식으로 스타트업 구루가 되었습니다. 예를 들어, 그는 젊은 나이에 실패했다고 볼 수 있는 회사를 단 하나 운영해 보았을 뿐임에도 불구하고, 다른 스타트업들이 따라야 할 95가지 조언을 담은 블로그 글을 쓰기도 했습니다.

Altman started an early-stage investment firm called Hydrazine Capital to make financial bets on start-ups, from life sciences to education software companies. … Then one day in 2014, Graham asked Altman a question while in the older entrepreneur’s kitchen: “Do you want to take over YC?” … Altman was jus thirty at the time, and Graham was pushing fifty. But Altman was already acting like new Graham. He had become his own version of a start-up guru with insights and advice on all manner of topics, including those with which he had little experience. Despite his youth and having only ever run one company that arguably failed, for instance, he once wrote a blog post with ninety-five nuggets of advice that other start-ups should follow.

세상를 구하고 싶지만 사람과의 정서적 교감은 부족. 자신을 지구 밖에 있는 존재로 여김:

알트만에게는 또한 내재적인 부조화가 있었습니다. 세상을 지키고자 하는 뛰어난 지성을 가졌지만, 정작 구하려는 평범한 사람들과는 정서적으로 거리가 멀었던 것입니다. … 그는 점점 더 자신이 우주 공간에 있는 것처럼 세상을 바라보고 있었습니다.

Altman also had an underlying dissonance: a brilliant mind driven to protect the world that was also emotionally distant from the regular people he sought to save. … He was incresingly seeing the world as if he was in outer space.

AGI를 자신이 처음으로 만들어야 한다는 집착:

남몰래 알트만은 1등이 되는 것에도 집착했습니다. … 그 실리콘 밸리 기업가는 자신의 노력에 불을 붙일 경쟁자가 필요했는데, 그 인물은 지구 반대편 영국에 있었습니다. 그는 과학과 심지어 에 대한 심오한 발견을 할 수 있을 만큼 강력한 소프트웨어를 만들 계획을 세우고 있던, 뛰어난 젊은 게임 디자이너였습니다.

Quietly, Altman was also obsessed with being first. … The Silicon Valley entrepreneur needed a rival to spark his own endeavor, and that person was on the other side of the world in England, a brilliant young game designer who was planning to build software so powerful that it could make profound discoveries about science and even God.

Chapter 4. A Better Brain

신경과학 공부를 시작:

엘릭서 스튜디오가 파산한 후, 데미스 하사비스는 너무 과감한 꿈을 꾸다 실패한 또 한 명의 기술 창업가가 되었습니다. 그 경험은 고통스러웠지만, 그에게는 주변의 다른 스타트업 창업자들이나 대부분의 사람들과는 다른 자신만의 독특한 무언가가 있었습니다. 바로 그의 였습니다. … 결국, 뇌는 우주에서 일반 지능이 가능하다는 유일한 증거였으므로, 그것을 깊이 이해하는 것은 타당한 일이었습니다. 그것은 순전히 물리적인 생물학의 문제일까, 아니면 그 이상일까? 해답은 신경과학에 있었습니다. …

무언가를 숫자나 규칙으로 측정할 수 있을 때, 그것이 바로 그가 가장 잘하는 분야였습니다. … “신경과학은 뇌를 기계론적 용어로 설명할 수 있다는 것을 보여줍니다.” … 2005년, 엘릭서를 폐업한 지 몇 달 후, 하사비스는 유니버시티 칼리지 런던에서 신경과학 박사 과정에 뛰어들었습니다.

After the collapse of Elixir Studios, Hassabis had become just another failed tech entrepreneur with too-bold dreams. The experience had been painful, but he still had something that he felt was unique to most of the other start-up founders and humans around him: his brain. … After all, it was the only proof in the universe that general intelligence was possible, so it made sense to deeply understand it. Was it all physical biology or something more? The answer lay in neuroscience. …

When you could measure something with numbers or rules - that was his sweet spot. … “Neuroscience shows you can describe the brain in mechanistic terms.” … In 2005, months after closing Elixir, Hassabis jumped into doing a PhD in neuroscience at University College London.

앨런 튜링으로부터의 영향:

하사비스는 튜링 기계를 고안한 20세기 영국의 컴퓨터 과학자 앨런 튜링에게서 영감을 받았습니다.

Hassabis took inspiration from Alan Turing, the twentieth-century British computer scientist who came up with the Turing machine.

학계의 한계:

하지만 하사비스는 학계에 오래 머물고 싶지 않았습니다. … 최첨단 머신러닝 연구를 수행하기 위해서는 세계에서 가장 강력한 컴퓨터들에 접근할 필요가 있었습니다.

But Hassabis didn’t want to linger in academia. … To do machine-learning research that was cutting edge, you needed access to some of the world’s most powerful computers.

Shane Legg, Mustafa Suleyman:

첫 번째 청사진은 다른 두 사람, 즉 셰인 레그무스타파 술레이만과의 점심 식사 대화를 통해 구체화되었습니다. … 레그는 스물일곱 살 때 한 서점에 들어갔다가 레이 커즈와일의 ‘정신 기계의 시대’라는 책을 발견했는데, 이 책은 컴퓨터가 언젠가 자유의지를 갖게 되고 감정적, 영적 경험을 하게 될 것이라고 예측했습니다.

그는 책을 처음부터 끝까지 다 읽고 나서 커즈와일의 추론과 강력한 AI가 2020년대 후반에 나타날 것이라는 그의 예측에 대한 생각을 멈출 수 없었습니다. …

그것이 가능하다고 믿었던 또 다른 한 사람은 무스타파 술레이만이었습니다. … 북부 런던에서 자란 그는 하사비스의 동생 조지의 친구였고, 십 대 시절에 그들의 집에 자주 드나들었습니다.

The first blueprints came together through conversations over lunch with two other people: Shane Legg and Mustafa Suleyman. … Legg was twenty-seven when he walked into a bookshop and spotted The Age of Spiritual Machines by Ray Kurzweil, which predicted that computers would one day develop free will and have emotional and spiritual experiences.

He read it cover to cover and couldn’t stop thinking about Jurzweil’s reasoning or his forecast for powerful AI to come about in the late 2020s. …

One other person who believed it could was Mustafa Suleyman. … Having grown up in North London, he was a friend of Hassabis’s brother, George, and had been a frequent visitor to their home in his teens.

“일반” 지능에 대한 꿈:

수년 동안 하사비스, 레그, 그리고 AI를 탐구하는 다른 과학자들은 인간과 같은 종류의 지능을 보이는 미래의 소프트웨어를 지칭하기 위해 강한 AI나 ‘적절한 AI’ 같은 용어를 사용해 왔습니다. 하지만 일반(general)이라는 단어를 사용함으로써 한 가지 중요한 점을 분명히 할 수 있었습니다. 즉, 인간의 뇌는 숫자를 계산하는 것부터 오렌지 껍질을 벗기고 시를 쓰는 것에 이르기까지 온갖 다른 일들을 할 수 있기 때문에 특별하다는 것입니다. 기계는 각각의 일들을 상당히 잘하도록 프로그래밍될 수 있었지만, 한 번에 모든 것을 할 수는 없었습니다. 만약 컴퓨터가 숫자 계산뿐만 아니라 예측, 이미지 인식, 대화, 텍스트 생성, 계획, 그리고 “상상”까지 할 수 있다면, 그것은 인간과 거의 비슷해질 수 있을 것입니다. … 하지만 하사비스가 박사 과정을 마치던 2009년 무렵에는 기계가 일반 지능을 가질 수 있다고 믿는 사람은 거의 없었습니다.

For years, people like Hassabis, Legg, and other scientists exploring AI had used terms like strong AI or proper AI to refer to future software that displayed the same kind of intelligence as humans. But using the word general drove home an important point: the human brain was special because of all the different things it could do, from calculating numbers to peeling an orange to writing a poem. Machines could be programmed to do each of those things fairly well, but none could do all of them at once. If a computer could not only crunch numbers but also make predictions, recognize images, talk, generate text, plan, and “imagine,” then it might come close to being like human. … but by the time Hassabis was finishing his PhD in 2009, hardly anyone believed that machines could have general intelligence.

DeepMind 창업:

필요한 규모와 자원을 얻기 위해, 그들은 스타트업을 설립해야 했습니다. … 그들은 회사 이름을 딥마인드(DeepMind)로 정하고, 하사비스를 CEO로 임명했으며, 즉시 엘릭서 시절 하사비스의 최고 코더 중 한 명을 고용했습니다. 그리고 하사비스가 박사 학위를 취득했던 유니버시티 칼리지 런던 길 건너편 다락방에 사무실 공간을 임대했습니다.

To get the necessary scale and resources, they needed to create a start-up. … They named the company DeepMind, made Hassabis the CEO, immediately hired one of Hassabis’s top coders from Elixir, and leased office space in an attic across the road from University College London, where Hassabis had done his PhD.

Mustafa Suleyman과의 논쟁:

머지않아 그들의 서로 다른 목표에 대한 논쟁이 벌어졌습니다. … 하사비스는 술레이만의 AI에 대한 관점이 현재에 너무 좁게 초점을 맞추고 있으며, AGI는 인류가 어디에서 왔고 그 목적이 무엇인지를 딥마인드가 이해하는 데 더 잘 사용되어야 한다고 믿는 듯했습니다. 예를 들어, 하사비스는 기후 변화가 인류의 운명이며, 지구가 아마도 모든 사람을 태우고 먼 미래까지 갈 수는 없을 것이라고 제안했습니다. …

하사비스는 이러한 관점을 딥마인드의 태그라인으로 요약했습니다: “지능을 해결하고, 그것을 사용해 다른 모든 것을 해결한다.” 그는 이 문구를 투자자들을 위한 발표 자료에 넣었습니다. … 하사비스는 자신이 체스를 두는 방식과 똑같이, 최종 목표를 염두에 두고 딥마인드를 운영하고 싶었습니다.

It wasn’t long before there were debates over their different goals. … Hassabis seemed to believe Suleyman’s view on AI was too narrowly focused on the present and that AGI whould be better used to help DeepMind understand where humans had come from and what their purpose was. Hassabis suggested that Climate change, for instance, was humanity’s destiny and that Earth probably couldn’t carry everyone on it into a long-term future. …

Hassabis summed up that view in DeepMind’s tagline: “Solve intelligence and use it to solve everything else.” He put it on their slide deck for investors. … Hassabis wanted to run DeepMind with the end in mind, just in the same way he played chess.

현대의 맨해튼 프로젝트:

하사비스는 또한 자신이 현대판 맨해튼 프로젝트를 이끌고 있다고 믿었습니다. 딥마인드의 전 직원 두 명에 따르면, 그는 ‘원자폭탄의 제조’를 읽고 영감을 받아, 로버트 오펜하이머가 했던 것처럼 과학자 팀들이 더 큰 문제의 하위 부분에 집중하도록 딥마인드 팀을 구성했습니다.

Hassabis also believed he was running a modern-day Manhattan Project. He’s reading The Making of the Atomic Bomb, and it inspired him to structure DeepMind’s team as Robert Oppenheimer had: focusing teams of scientists on subsections of a bigger problem, according to two former DeepMind staffers.

실리콘 밸리로:

영국의 기술 스타트업들은 주식 및 채권 거래용 금융 앱 개발과 같이 더 빨리 돈을 벌 수 있는 ‘현실적인’ 사업 아이디어를 추구하는 경향이 있었습니다. 하사비스와 그의 공동 창업자들은 더 미래적인 아이디어에 더 큰 금액을 기꺼이 투자하려는 투자자들이 있는 실리콘 밸리로 눈을 돌릴 수밖에 없었습니다.

In the UK, tech start-ups tended to chase “sensible” business ideas that would make money more quickly, like building a financial app for trading stocks and bonds. Hassabis and his cofounders had little choice but to look to Silicon Valley, where investors were willing to bet bigger amounts of money for more futuristic ideas.

피터 틸:

두둑한 자금력과 야심 찬 프로젝트에 대한 열정을 가진 피터 틸딥마인드에 자금을 댈 완벽한 인물이었습니다. … 틸은 매우 역발상적인 인물이어서, 이미 비관습적인 사상가들로 가득한 실리콘 밸리의 다른 사람들과 종종 의견이 맞지 않았습니다. 그 지역 대부분이 진보 성향에 투표하는 동안, 그는 우파로 기울어 도널드 트럼프 대통령의 최고 기부자 중 한 명이 되었습니다. 대부분의 기업가들이 경쟁이 혁신을 주도한다고 믿는 반면, 틸은 그의 책 제로 투 원에서 독점이 그 일을 더 잘 해낸다고 주장했습니다. …

틸은 딥마인드특이점을 가져오는 것을 돕기 위해 140만 파운드를 투자했습니다.

With his deep pockets and enthusiasm for ambitious projects, Thiel was the perfect person to fund DeepMind. … Thiel was so contrarian that he was often at odds with the rest of Silicon Valley, which was already full of unconventional thinkers. While most of the region voted liberal, he veered to the right, becoming one of President Donald Trump’s top donors. While most entrepreneurs believed competition drove innovation, Thiel argued in his book Zero to one that monopolies did that better. …

Thiel invested £1.4 million into helping DeepMind bring on the singularity.

일론 머스크:

딥마인드는 훨씬 더 자금력이 풍부하면서도 회사를 안전한 방향으로 이끌고자 하는 또 다른 투자자를 곧 맞이하게 되었습니다. … 일론 머스크는 다른 사람, 즉 닉 보스트롬이라는 옥스퍼드 철학자에게 감명을 받았습니다.

보스트롬슈퍼인텔리전스라는 책을 썼는데, 이 책은 인공지능과 프론티어 기술 분야에서 일하는 사람들 사이에서 큰 반향을 일으키고 있었습니다. 이 책에서 보스트롬은 ‘범용’ AI나 강력한 AI를 만드는 것이 인류에게 재앙적인 결과를 초래할 수 있다고 경고했지만, 그것이 악의적이거나 권력에 굶주려서 우리를 파괴하는 것은 아닐 수도 있다고 지적했습니다. 그것은 단지 자신의 임무를 수행하려 할 뿐일지도 모릅니다. …

머스크는 딥마인드에도 일부 자금을 투자했습니다.

DeepMind was about to get another investor with even deeper pockets who also wanted to steer it in a safe direction. … Musk had been moved by someone else: an Oxford philosopher named Nick Bostrom.

Bostrom had written a book called Superintelligence, and it was causing a stir among people working on AI and frontier technology. In the book, Bostrom warned that building “general” or powerful AI could lead to a disastrous outcome for humans, but he pointed out that it might not necessarily destroy us because it was malevolent or power-hungry. It might just be trying to do its job. …

Musk wen ahead and put some money into DeepMind too.

성공은 해야하지만 너무 빨리 성공하면 안되는 이상한 상황:

물론 그들은 딥마인드가 재정적으로 성공하기를 바랐지만, 동시에 너무 빠르게 성장하거나 인류를 위험에 빠뜨리는 방식으로 발전하는 것은 원치 않았습니다.

They wanted DeepMind to financially succeed, sure, but they also didn’t want DeepMind to build too quickly or in a way that would put humanity in danger.

마크 저커버그:

저커버그는 사람들이 자신의 사이트에서 점점 더 많은 시간을 보내게 할 필요가 있었고, 딥마인드의 수십 명의 재능 있는 AI 과학자들이 도움을 줄 수 있었습니다. … 지금까지 딥마인드의 자금은 AI를 가능한 한 신중하게 개발하기를 원하는 사람들로부터 나왔습니다. 이제는 훨씬 더 빠르게 개발하기를 원하는 사람으로부터 자금을 받을 수도 있었습니다. 결국 페이스북의 모토는 “빠르게 움직이고 틀을 깨라(Move fast and break things)“였으니까요.

하사비스와 술레이만은 이 상황에 어떻게 접근할지 논의했습니다. … 페이스북이 단순히 계약서에 서명하고 AGI를 오용하지 않겠다고 약속하게 만들 수는 없었습니다. …

그(Mark Zuckerberg)는 수많은 윤리 규약과 자체적인 거창한 임무를 가진 별도의 AI 회사를 운영하는 것이 아니라, 자신의 다양한 소셜 미디어 플랫폼을 통해 페이스북의 광고 사업을 성장시키고 “세상을 연결”하기를 원했습니다. 협상은 결렬되었습니다.

Zuckerberg needed people to spend more and more time on his sites. DeepMind’s dozens of talented AI scientists could help. … Until now, DeepMind’s money had been coming from people who wanted him to build AI as carefully as possible. Now it could come from someone who wanted them to build it much more quickly. Facebook’s motto after all was “Move fast and break things.”

Hassabis and Suleyman talked about how to approach the situation. … They couldn’t just have Facebook sign a contract and promise not to misuse AGI. …

He (Mark Zuckerberg) wanted to grow Facebook’s advertising business and “connect the world” through his various social media platforms, not run a separate AI company with a bunch of ethical protocols and its own grand mission. The talks fell apart.

페이페이 리제프리 힌턴:

전환점은 2012년에 찾아왔습니다. 스탠퍼드의 AI 교수인 페이페이 리이미지넷이라는 학술 대회를 매년 개최했는데, 연구자들은 이 대회에 고양이, 가구, 자동차 등의 이미지를 시각적으로 인식하는 AI 모델을 제출했습니다. 그해, 과학자 제프리 힌튼의 연구팀은 딥러닝을 사용하여 이전의 어떤 모델보다 훨씬 더 정확한 모델을 만들었고, 그 결과는 AI 분야를 놀라게 했습니다. 갑자기 모든 사람이 뇌가 패턴을 인식하는 방식에서 영감을 받은 이 딥러닝 AI 이론의 전문가를 고용하고 싶어 했습니다.

The turning point had come in 2012. A Standford AI professor named Fei-Fei Li had created an annual challenge for academics called ImageNet, to which researchers submitted AI models that tried to visually recognize images of cats, furniture, cars, and more. That year, scientist Geoffrey Hinton’s team of researchers used deep learning to create a model that was far more accurate than anything before, and their results stunned the AI field. Suddenly everybody wanted to hire experts in this deep learning AI theory inspired by how the brain recognized patterns.

다시 일론 머스크:

이번에는 투자자인 일론 머스크로부터 딥마인드를 인수하겠다는 또 다른 제안이 불쑥 들어왔습니다. … AI의 위험성에 대한 두려움이 커지고 있었음에도 불구하고, 그 억만장자의 머릿속에는 상업적 목표 또한 최우선으로 자리 잡고 있었습니다. 그는 테슬라 자동차가 세계 최초로 자율 주행 기술을 성공적으로 사용하기를 원했고, 이는 인공지능 분야의 최첨단 전문가가 더 많이 필요하다는 것을 의미했습니다. … 하지만 딥마인드의 창업자들은 다시 한번 경계했습니다. … 그들은 또한 머스크 같은 인물이 인공 일반 지능(AGI)을 통제하는 것에 대해 불안감을 느꼈습니다.

Out of nowhere came another offer to buy DeepMind, this time from its investor Elon Musk. … Despite his growing fears about the dangers of AI, the billionaire’s commercial goals were also at the forefront of his mind. He wanted Tesla cars to be the first in the world to successfully use self-driving technology, which meant he needed more cutting-edge experts in Artificial intelligence. … But once again DeepMind’s founders were wary. … They also felt uneasy about someone like Musk taking control of AGI.

드디어 구글:

하지만 곧, 하사비스는 또 다른 이메일을 받았습니다. 그것은 구글로부터 온 것이었습니다.

Some enough though, Hassabis got another email. It was from Google.

Chapter 5. For Utopia, for Money

Google과 Google Brain:

하사비스런던에서 컴퓨터를 열었을 때, 그는 구글의 CEO인 래리 페이지를 만나자는 초대장을 보았습니다. … “그는 1998년 차고에 있을 때부터 항상 구글을 AI 회사로 생각했다고 말했습니다.”

페이지의 아버지가 1996년 사망하기 전까지 AI와 컴퓨터 과학 교수였기 때문에, 이는 부분적으로 개인적인 것이기도 했습니다. … 당시 하사비스는 알지 못했던 페이지의 프로젝트는 구글 브레인이라고 불렸습니다. 이는 구글 내부에서 더 발전된 AI 시스템을 구축하고자 했던 부드러운 목소리의 스탠포드 대학교 교수, 앤드류 응의 제안으로 시작되었습니다. …

페이지는 그 아이디어를 마음에 들어 했고 승인했으며, 응을 영입하여 구글의 최첨단 AI 연구 프로젝트를 이끌게 했습니다. … 그러나 몇 년 후, 구글 브레인은 범용 인공지능을 구축하는 방향으로 나아가는 것처럼 보이지 않았습니다. 대신 구글의 타겟 광고 사업 개선에 기여하고 있었습니다. …

그런 의미에서, 응은 하사비스에게 큰 도움을 준 셈이었습니다. 구글 본사에 기반을 둠으로써 응의 연구는 이미 회사의 광고 사업에 기여하는 방향으로 진행되고 있었고, 덕분에 딥마인드는 즉시 그럴 필요가 없었습니다.

As Hassabis opened it up on his computer in London, he saw an invitation to meet with Larry Page, Google’s CEO. … “He told me that he always thought of Google as an AI company, even when he was in that garage in 1998.”

Partly it was personal, as Page’s father had been a professor of AI and computer science until his death in 1996. … Page’s project, which Hassabis didn’t know about at the time, was called Google Brain. It had come about as a proposal from Andrew Ng, a gentle-voiced Stanford university professor who wanted to build more advanced AI systems from inside Google. …

Page loved the idea and approved it, bringng Ng on board to lead Google’s most cutting-edge AI research project yet. … But a few years later, Google Brain didn’t look like it was on course to build AGI. Instead, it was helping Google improve its targeted advertising business. …

In that sense, Ng had done Hassabis a huge favor. By basing himself in the Google mothership, Ng’s research was already on track to contribute to the company’s ad business so that DeepMind didn’t immediately have to.

하사비스가 구글에 제안한 조건. 군용으로 쓰지 말 것, 윤리위원회를 둘 것:

하사비스는 매각에 두 가지 큰 조건이 있다고 말했습니다. 첫째, 그와 공동 창업자들은 구글이 딥마인드의 기술을 자율 주행 드론 조종, 무기, 또는 현장 군인 지원 등 어떠한 군사적 목적으로도 사용하지 않기를 원했습니다. … 둘째, 그들은 구글의 리더들이 소위 윤리 및 안전 협약에 서명하기를 원했습니다. …

(래리 페이지는) 인수 조건의 일부로 윤리위원회를 설치해 달라는 딥마인드의 요구에 동의했습니다.

Hassabis said he had two bing conditions for selling. First, he and his cofounders didn’t want Google to ever use DeepMind’s technology for military purposes, whether that was for steering autonomous drones or weapons or supporting soldiers in the field. … Second, they wanted Google’s leaders to sign what they called an ethic and safety agreement. …

(Larry Page) agreed to DeepMind’s demands for an ethics board as part of the acquisition.

트랜스휴머니즘과 우생학:

셰인 레그는 그의 전 동료들에 따르면, 수십 년에 걸쳐 형성된 이념을 포함하여 AGI 추구와 관련된 더 극단적인 이념들과 가장 뜻을 같이했습니다. 트랜스휴머니즘으로 알려진 이 사상은 논란의 여지가 있는 뿌리와 역사를 가지고 있었고, 이는 AI 개발자들이 때때로 기술의 불쾌하고 더 현재적인 부작용을 무시하는 이유를 설명하는 데 도움이 되었습니다. …

핵심 아이디어는 1940년대1960년대로 거슬러 올라가는데, 당시 줄리언 헉슬리라는 진화생물학자가 영국 우생학회에 가입하여 운영했습니다. 우생학 운동은 인류가 선택적 번식을 통해 스스로를 개선해야 한다고 제안했으며, 이는 영국 대학과 지식인 및 상류층 사이에서 번성했습니다. 헉슬리 자신은 귀족 가문 출신이었고(그의 형제 올더스멋진 신세계를 썼습니다), 그는 사회의 상류층이 유전적으로 우월하다고 믿었습니다. 하층 계급 사람들은 나쁜 작물처럼 솎아내고 강제 불임 수술을 받아야 했습니다. 헉슬리는 “(그들은) 너무 빨리 번식하고 있다”고 썼습니다.

나치가 우생학 운동을 받아들이자 헉슬리는 새로운 이름이 필요하다고 결정했습니다. 그는 한 에세이에서 적절한 번식과 더불어 인류가 과학과 기술을 통해 “스스로를 초월”할 수도 있다고 말하며 *트랜스휴머니즘*이라는 새로운 용어를 만들었습니다.

Shane Legg was most aligned with the more extreme ideologies linked to the pursuit of AGI, including one that had been decades in the making, according to his former colleagues. Known as transhumanism, the idea had controversial roots and a history that helped explain why AI’s builders sometimes neglected the nasty, more current side effects of the technology. …

The core idea stems back to the 1940s and 1960s when an evolutionary biologist named Julian Huxley joined and ran British Eugenics Society. The eugenics movement proposed that humans should improve themselves through selective breeding, and it flourished in British universities and among the country’s intellectual and upper classes. Huxley himself came from an aristocratic family (his brother Aldous wrote Brave new world), and he believed society’s upper crust was genetically superior. Lower-class people needed to be weeded out like a bad crop and subjected to forced sterilization. “(They) are reproducing too fast,” Huxley wrote.

When the Nazis latched on to the eugenics movement, Huxley decided it needed a rebrand. He conined a new term, transhumanism, in an essay saying that alongside proper breeding, humanity could also “transcend itself” through science and technology.

가속주의자, 멸망론자, 그리고 돈:

이런 생각들의 문제점 중 일부는 수년에 걸쳐 추종자들이 점점 더 열성적으로 변했다는 것입니다. 예를 들어, 소위 AI 가속주의자들은 과학자들이 포스트휴먼 낙원, 즉 너드들을 위한 일종의 황홀경을 만들기 위해 가능한 한 빨리 AGI를 구축해야 할 도덕적 의무가 있다고 믿습니다. 만약 그것이 그들의 생애 안에 만들어진다면, 그들은 영원히 살 수 있을 것입니다. 하지만 AI 개발 속도를 높이는 것은 특정 집단의 사람들에게 해를 끼치거나 통제 불능 상태에 빠질 수 있는 기술을 만들면서 절차를 생략하는 것을 의미할 수도 있었습니다.

바로 이 지점에서 다른 사람들은 AI가 멈춰야 할 미래의 악마 같은 존재라고 믿으며 반대 입장을 취했습니다. 커피를 마시며 얀 탈린을 급진화시킨 수염 난 자유지상주의자 엘리저 유드코프스키는 그 이념 운동의 주도적인 인물이었고, 그는 자신의 사이트 LessWrong을 통해 그 운동에 점점 더 큰 추진력을 부여했습니다. … 레스롱은 AI 종말론 공포에 대한 인터넷에서 가장 영향력 있는 허브가 되었고, 일부 언론 보도는 그것이 현대 종말론 사이비 종교의 모든 특징을 가지고 있다고 지적했습니다. …

그러나 아마도 AGI를 둘러싸고 스며들기 시작한 가장 충격적인 이데올로기는 디지털 형태의 거의 완벽한 인류를 만드는 데 초점을 맞춘 것들이었을 것입니다. 이 아이디어는 부분적으로 닉 보스트롬슈퍼인텔리전스에 의해 대중화되었습니다. … 이러한 생각들은 올바른 알고리즘만 있다면 그런 환상적인 삶의 방식이 가능하다고 믿었던 실리콘 밸리의 일부 사람들에게는 거부할 수 없는 것이었습니다. …

이러한 현대 기술 이데올로기가 딥마인드구글의 협상과 맞물리면서, 냉혹한 진실이 드러나기 시작했습니다. AI에 대한 책임감 있는 관리 형태를 찾는 것은 기술 기업들에게 매우 힘든 일이 되어가고 있었습니다. 한쪽에서는 거의 종교적인 열정에 의해, 다른 한쪽에서는 상업적 성장에 대한 멈출 수 없는 갈증에 의해 서로 다른 목표들이 충돌할 궤도에 있었습니다.

The problem with some of these idea was that, over the years, their followers grew increasingly zealous. Some so-called AI accelerationists, for instance, believe that scientists have a moral imperative to work as quickly as possible to build AGI to create a posthuman paradise, a kind of rapture for nerds. If it was built in their lifetime, they could life forever. But speeding up AI’s development could also mean cutting corners and marking technology that harmed certain groups of people or that could spin out of control.

That’s where others took the opposite stance, believing that AI represented a kind of devil figure of the future that needed to be stopped. Eliezer Yudkowsky, the bearded libertarian who helped radicalize Jaan Tallinn over coffee, was a leading figure in that ideological movement, which he gave increasing momentum through his site LessWrong. … LessWrong had become the internet’s most influential hub for AI apocalypse fears, and some press reports pointed out that it had all the trappings of modern doomsday cult. …

But perhaps the most disturbing ideologies that were starting to percolate around AGI were those focused on creating a near-perfect human species in digital form. This idea was popularized in part by Nick Bostrom’s Superintelligence. … These ideas were irresistible to some people in Silicon Valley, who believed such fantastical ways of life were achievable with the right algorithms. …

As these modern-day technological ideologies coincided with DeepMind’s negotiations with Google, a hard truth was coming to bear. Figuring out a responsible form of wtewardship for AI was becoming fraught for tech companies. Different objectives were on track to crash into one another, driven by an almost religious zealotry on one side and an unstoppable hunger for commercial growth on the other.

협상 타결:

마침내 계약이 체결되고 인수 계약에 윤리 위원회가 추가되었을 때, 구글은 딥마인드를 6억 5천만 달러에 인수하고 있었습니다. … 이제 하사비스는 페이스북이나 아마존이 자신의 직원을 빼가는 것을 걱정하는 대신, 눈이 휘둥그레지는 연봉으로 그들의 직원을 빼내고 학계의 위대한 AI 인재들을 유혹할 수 있었습니다. … 그리고 이제 구글의 일원이 된 덕분에, 그들은 세계 최고의 슈퍼컴퓨터와 AI 모델 훈련을 위한 가장 많은 데이터에 접근할 수 있게 되었습니다.

When the deal was finally inked and the ethics board added to the acquisition agreement, Google was buying DeepMind for $650 millison. … Now instead of worrying about Facebook or Amazon poaching his staff, Hassabis could poach their staff and lure some of the greatest AI minds from academia with eye-popping salaries. … And now thanks to being part of Google, they had access to the world’s best supercomputers and the most data for training AI models too.

윤리위원회:

인수 약 1년 후, 딥마인드는 캘리포니아에 있는 SpaceX 본사 내 회의실에서 윤리 및 안전 위원회의 첫 회의를 소집했습니다. 데미스 하사비스, 무스타파 술레이만, 셰인 레그가 이사회에 있었고, 링크드인의 억만장자 공동창업자에서 벤처 캐피털 투자자로 변신한 일론 머스크리드 호프먼도 마찬가지였습니다. 회의에 정통한 사람들에 따르면, 첫 회의에 참석한 다른 남성들로는 래리 페이지, 구글 임원인 순다르 피차이, 구글의 법무 책임자 켄트 워커, 하사비스의 박사후 과정 지도교수 피터 다얀, 그리고 옥스퍼드 대학의 철학자 토비 오드가 있었습니다.

회의는 잘 진행되었지만, 그 후 창업자들은 구글로부터 놀라운 소식을 들었습니다. 결국 회사는 새로운 윤리 위원회가 진행되는 것을 원하지 않았습니다. … 당시 구글의 설명 중 일부는 이사회의 일부 핵심 구성원들이 이해 상충의 소지가 있다는 것이었습니다. 예를 들어, 머스크는 딥마인드 외부의 다른 AI 노력을 잠재적으로 지원하고 있었으며, 이사회를 설립하는 것이 법적으로 실현 가능하지 않다는 것이었습니다.

About a year after the acquisition, DeepMind convened its first meeting for the ethics and safety board at a conference room inside SpaceX’s headquarters in California. Hassabis, Suleyman, and Legg were on the board, and so were Elon Musk and Reid Hoffman, the billionaire cofounder of LinkedIn turned venture capital investor. The other men at that first meeting included Larry Page, Google executive Sundar Pichai, Google’s legal chief Kent Walker, Hassabis’s postdoc advisor Peter Dayan, and Oxford University philosopher Tody Ord, according to people with knowledge of the meeting.

The meeting went well, but then the founders got some surprising news from Google. The company didn’t want its new ethics board to go forward after all. … Part of Google’s explanation at the time was that some of the board’s key members had conflicts of interest - Musk was potentially backing other AI efforts outside of DeepMind, for instance - and establishing a board just wasn’t legally feasible.

알파벳:

딥마인드 창업자들은 당시에는 몰랐지만, 구글은 자사의 다양한 사업 부문이 더 독립적으로 운영될 수 있도록 하는 “알파벳”이라는 이름의 대기업으로 변모할 준비를 하고 있었습니다. … 그 아이디어는 유망하게 들렸습니다. …

겉으로 드러나지 않은 구글의 진짜 목표는 정체되어 있던 주가를 부양하는 것이었습니다. 수년 동안 월스트리트 분석가들은 유튜브, 안드로이드, 그리고 수익성 높은 검색 엔진 외에 구글의 다른 사업 묶음을 평가하는 데 어려움을 겪고 있었습니다. …

하지만 구글이 알파벳이라는 이름으로 구조조정을 발표했을 때, 딥마인드에 더 많은 법적 자율성을 부여할 계획을 확인하거나 발표하지 않았습니다.

The DeepMind founders didn’t know this at the time, but Google was preparing to turn itself into a conglomerate called “Alphabet,” which would allow its various business divisions to operate with more independence. … The idea sounded promising. …

Out of view, Google’s real goal was to boost its share price, which had been stagnating. For years, Wall Street analysts had been struggling to evaluate Google’s bundle of other businesses outside of YouTube, Android, and its lucrative search engine. …

But then, when Google announced that it was being restructured under the name Alphabet, it wouldn’t confirm or announce any plans to give DeepMind more legal autonomy.

OpenAI:

하사비스는 구글이 자신을 속여 넘기는 것처럼 보이는 방식에 대해 오래 생각할 시간이 많지 않았습니다. 더 골치 아픈 문제가 수평선 너머로 다가오고 있었습니다. 샌프란시스코에서는 일부 스타트업 창업자들이 딥마인드와 같은 목표를 가진 또 다른 연구소를 설립하고 있었습니다. … 설상가상으로, 이 새로운 조직은 그의 옛 투자자인 일론 머스크에 의해 설립되었습니다. 그 이름은 오픈AI였습니다.

Hassabis didn’t have much time to dwell on the way Google seemed to be fobbing him off. There was a more troubling matter coming up on the horizon. Over in San Francisco, some start-up founders were setting up another research lab that had the same goal as DeepMind’s. … What made things worse was that this new organization had been spun up by his old investor, Elon Musk. It was called OpenAI.

Chapter 6. The Mission

독점에서 경쟁으로:

딥마인드의 목표는 너무나 급진적이어서 사실상 독점처럼 운영될 수 있었습니다. … 그들의 탐구는 독보적이었습니다. 이제 실리콘 밸리에 경쟁자가 나타날 가능성이 그 모든 것을 바꿔놓을 것이었습니다. AGI를 구축하려는 탐구는 곧 경쟁으로 바뀌려 하고 있었습니다.

DeepMind’s objective was so radical that it could effectively operate like a monopoly. … Their quest was unique. Now the possibility of a rival in Silicon Valley was going to change all that. The quest to build AGI was about to turn into a race.

OpenAI에 대한 분노와 경쟁심:

데미스 하사비스오픈AI에 대해 알면 알수록 분노가 치밀어 올랐습니다. … 오픈AI는 웹사이트에 7명의 공동창업자를 명시하고 있었습니다. 하사비스가 그 이름들을 자세히 살펴보았을 때, 그는 그들 중 5명이 몇 달 동안 딥마인드에서 컨설턴트와 인턴으로 일했다는 것을 깨달았습니다….

이 5명의 전 방문자 중 한 명은 딥마인드의 대표 기술인 강화 학습이 아닌 딥 러닝을 전문으로 하는 저명한 AI 과학자 일리야 수츠케버였습니다. 수츠케버는 오픈AI의 수석 과학자였으며, 공동창업자들과 마찬가지로 AGI의 가능성을 깊이 신뢰하는 인물이었습니다.

The more Hassabis learned about OpenAI, the more his anger rose. … OpenAI had seven people listed as cofounders on it website. When Hassabis took a closer look at the names, he realized that five of them had worked as consultants and interns at DeepMind for several months….

One of those five former visitors was a renowned AI scientist namaed Ilya Sutskever, who specialized in deep learning, not DeepMind’s signature technique, reinforcement learning. Sutskever was OpenAI’s chief scientist and, like this cofounders, a deep believer in the possibilities of AGI.

OpenAI의 “공개” 전략에 대한 하사비스의 의문:

하사비스는 기술을 대중에게 공개하겠다는 오픈AI의 약속에 의문을 제기했습니다. … “점점 더 강력한 이중 목적 기술을 갖게 될 때, 악의적인 행위자들이 나쁜 목적으로 그 기술에 접근하는 것은 어떻게 할 것인가? … 누군가가 무엇을 할지에 대해 당신이 통제할 수 있는 것은 매우 제한적이다.”

Hassabis quenstioned OpenAI’s promises to release its technology to the public. … “As you get more and more powerful dual-purpose technoligies, what about bad actors accessing that technology, for bad ends? … You have very limited control over what somebody might do.”

하사비스를 욕하고 다니는 일론 머스크:

딥마인드와 오픈AI에서 근무했던 사람들에 따르면, 굴욕감을 더 깊게 만든 것은 머스크가 실리콘 밸리의 지인들에게 하사비스를 험담하고 다닌다는 소식을 딥마인드 경영진이 듣게 된 것이었습니다.

Deepening the humiliation, DeepMind leaders caught wind that Musk was trash-talking Hassabis to his contacts in Silicon Valley, according to people who worked at DeepMind and OpenAI.

AI로 인한 인류 멸망론에 점점 더 빠져들면서도 돈을 벌고 싶은 일론:

머스크는 AI 파멸론의 토끼굴에 빠져들면서 그 문제에 더 많은 돈과 시간을 투자하기 시작했습니다. 그는 AI를 통한 인류 절멸을 막기 위한 더 많은 연구를 촉구하는 캠페인을 벌이는 비영리 단체인 생명의 미래 연구소에 1,000만 달러를 기부했습니다. …

하지만 다른 한편으로 그는 실리콘 밸리에서 어디에 돈을 투자할지에 대한 가장 큰 결정들의 일부를 부추기는 쇠약하게 만드는 “소외되는 것에 대한 두려움”, 즉 FOMO를 겪고 있었습니다. … 구글딥마인드를 인수했을 뿐만 아니라, 마크 저커버그는 [Fundamental AI Research|페이스북 AI 연구소]라는 새로운 부서를 설립하고 딥 러닝 분야의 세계적인 전문가 중 한 명인 얀 르쿤을 고용하여 운영하게 했습니다.

As Musk went down the rabbit hole of AI doom, he started investing more of his money and time in the issue. He gave $10 million to the Future of Life Institute, a nonprofit organization that campaigned for more research into stopping human annihilation through AI. …

But on the other hand, he was also experiencing FOMO, the debilitating “fear of missing out” that fuels some of the biggest decisions in Silicon Valley about where to put money. … Not only had Google bought DeepMind, but Mark Zuckerberg had set up a new division called Facebook AI Research, or FAIR, and hired one of the world’s leading specialists in deep learning, Yann LeCun, to run it.

데미스 허사비스샘 올트먼의 차이:

하사비스는 AGI가 과학과 신성의 신비를 풀 것이라고 믿었던 반면, 올트먼은 그것을 세계의 재정적 풍요로 가는 길로 보았다고 말하곤 했습니다.

While Hassabis had believed that AGI would unlock the mysteries of science and the divine, Altman would say he saw it as the route to financial abundance for the world.

OpenAI의 “개방성”의 가치에 공감하여 합류한 초기 멤버들:

브록먼은 이후 구글페이스북 같은 회사에서 재능 있는 과학자들로 구성된 초기 그룹을 빼내오는 책임을 맡았습니다. … 거물급 인사들과 비전과 더불어, 그들은 이 새로운 조직의 “개방적인” 부분을 마음에 들어 했습니다.

Brockman then took charge of poaching an initial group of talented scientists from companies like Google and Facebook … . Alongside the big names and vision, they liked the “open” part of this new organization.

출범:

브록먼수츠케버가 프로젝트를 소개하는 블로그 글을 올린 웹사이트 openai.com이 등장했습니다. 그들은 “우리의 목표는 재정적 수익을 창출해야 한다는 제약 없이 인류 전체에 가장 이로울 가능성이 높은 방식으로 디지털 지능을 발전시키는 것”이라고 썼습니다.

A website, openai.com popped up with a blog post written by Brockman and Sutskever introducing the project. “Our goal is to advance digital intelligence in the way that is most likely to benefit humantity as a whole, unconstrained by a need to generate financial return,” they wrote.

한편, 기업의 영입 경쟁으로 인해 인재를 잃어가는 학계:

대학의 두뇌 유출은 두 가지 이유로 일어나고 있었습니다. 첫 번째이자 가장 명백한 이유는 급여였습니다. … 두 번째 이유는 AI 연구에서 실험을 실행하는 데 필요한 데이터와 컴퓨팅 파워였습니다.

The university brain drain was happening for two reasons. The first and most obvious was pay. … A second reason was the data and computing power needed to run experiements in AI research.

스케일링 법칙:

AI를 더 똑똑하게 만드는 데 있어서는, 많을수록 더 좋았습니다. … 만약 AI 모델을 점점 더 많은 데이터로 훈련시키고, 모델이 가진 매개변수의 수를 늘리고, 또한 훈련에 사용되는 컴퓨팅 파워를 증강시키면, AI 모델은 더욱 능숙해질 것이었습니다.

When it came to making AI smarter, more was better. … If you trained an AI model with more and more data, and you also raised the number of parameters the model had, and you also boosted the computing power used for training, the AI model would become more proficient.

약속을 안지키는 일론:

문제가 발생하기 시작하는 데는 오랜 시간이 걸리지 않았습니다. 오픈AI는 12월에 발표했던 머스크, 피터 틸 등으로부터의 10억 달러 자금 지원 약속을 즉시 받지 못했습니다. 사실, 오픈AI의 연방 세금 신고서를 면밀히 조사한 기술 뉴스 사이트 테크크런치의 조사에 따르면, 이 비영리 단체는 이후 몇 년 동안 실제 기부금으로 1억 3천만 달러를 약간 넘는 금액을 모으는 데 그쳤습니다.

It wasn’t long before problems started to arise. OpenAI didn’t immediately get the $1 billion in funding commitments it had announced in December, from Musk, Thiel, and others. In fact, over the next few years, the nonprofit managed to collect only a little over $130 million in actual donations, according to an investigation by the tech news site TechCrunch, which pored over OpenAI’s federal tax filings.

다리오 아모데이:

출범 몇 달 후, 그들은 다리오 아모데이라는 또 다른 존경받는 구글 브레인 연구원의 방문을 받았습니다. … 아모데이는 머스크나 엘리저와 비슷한 파멸의 공포를 느끼는 과학자 집단의 일원이었습니다. 그는 1년도 채 되기 전에 구글 포토 앱의 시각 인식 시스템이 유색인종을 고릴라로 분류하는 것이 발견되어 회사가 비난을 받았을 때 구글에서 일하고 있었습니다.

A few months after the launch, they got a visit from another respected Google Brain research named Dario Amodei. … Amodei was part of the growing cohort of scientists who had similar fears of doom to Musk and Eliezer. He’s been working at Google when, less than a year earlier, the company came under fire after the vision recognition system in its Photos app was spotted classifying people of color as gorillas.

허사비스가 싫어서 OpenAI에 투자했다고 공공연히 말하고 다니는 일론 머스크 (그나마도 실제로 투자한 액수는 약속한 금액의 5~10%):

어느 순간, 머스크는 자신이 왜 오픈AI에 자금을 지원했는지에 대해 이야기하기 시작했는데, 그 이유는 데미스 하사비스였습니다.

그곳에 있던 한 사람에 따르면 머스크는 “나는 딥마인드의 투자자 중 한 명이었고, 래리가 데미스가 자신을 위해 일한다고 생각하는 것이 매우 우려스러웠습니다. 사실 데미스는 자기 자신을 위해 일할 뿐입니다”라고 말했습니다. “그리고 나는 데미스를 신뢰하지 않습니다.”

At one point, Musk started talking about why he’d funded OpenAI, and the reason was Demis Hassabis.

“I was one of the investors in DeepMind, and I was very concerned that Larry thinks Demis works for him. Actually, Demis just works for himself,” Musk said, according to a person who was there. “And I don’t trust Demis.”

일론 머스크의 조바심, 결국 헤어지는 일론과 올트먼:

전 오픈AI 직원들에 따르면, 몇 달이 지나면서 머스크는 오픈AI의 기술이 딥마인드만큼 강력하지 않다는 점을 점점 더 우려하게 되었습니다. … 그는 올트먼에게 인상적인 과학자들을 영입했지만 딥마인드를 압도할 만한 데모가 없다고 불평했습니다. … 그는 빠른 해결책을 제안했습니다: 자신이 오픈AI를 장악하고 테슬라와 합병하겠다는 것이었습니다. … 하지만 올트먼과 공동창업자들은 계속 통제권을 유지하고 싶었습니다. 그들은 머스크의 제안을 거절했습니다.

2018년 2월, 오픈AI는 새로운 기부자에 대한 공개 발표에서 머스크가 떠난다고 간략하게 언급했지만, 그 이유는 좋은 쪽으로 포장했습니다. 머스크는 윤리적인 이유로 떠난다는 것이었습니다. 그는 AI 분야에서 너무 큰 이해 상충을 가지고 있었습니다.

As the months passed, Musk grew more and more concerned that OpenAI’s technology simply wasn’t as powerful as DeepMind’s, according to former OpenAI staff. … He complained to Altman that he had recruited an impressive roster of scientists but didn’t have any demos that blew DeepMind out of the water. … He then offered a quick solution: he would take control of OpenAI and merge it with Tesla. … But Altman and his cofounders wanted to stay in control. They rejected Musk’s proposal.

In February 2018, OpenAI briefly memtioned in a public announcement about new donors that Musk was leaving, but it framed the reason as benign. Musk was leaving for ethical reasons. He had too big conflict of interest in the field of AI.

인류의 미래가 걱정된다고 말하지만 DeepMind와의 경쟁에만 혈안이 되어 있는 일론:

머스크가 만성적으로 신뢰할 수 없는 인물이라는 점은 분명했습니다. … 인류의 미래에 대한 머스크의 모든 우려에도 불구하고, 그는 경쟁에서 앞서나가는 데 훨씬 더 사로잡혀 있는 것처럼 보였습니다.

It was clear that Musk was also chronically unreliable. … For all the concerns Musk had about humanity’s future, he seemed far more preoccupied with staying ahead of the competition.

영리 기업으로의 “피봇”을 시도하는 샘 올트먼. AI 분야가 “학문적 경쟁”에서 “서부 시대”처럼 바뀌기 시작:

올트먼과 머스크는 오픈AI를 비영리 단체로 설립하고, 만약 자신들이 초지능 기계의 문턱에 가까워지는 것처럼 보이면 연구 결과와 특허까지도 다른 조직과 공유하겠다고 약속했습니다. …

이제 올트먼은 살아남기 위해 분투하면서 그러한 안전장치 중 일부를 허물어뜨릴 것이었습니다. 그가 처음 시작했던 신중한 접근 방식은 더 무모한 것으로 변모할 것이었고, 그렇게 함으로써 그와 딥마인드가 일해왔던 AI 분야를 느리고 대체로 학문적인 추구에서 서부 시대와 더 비슷한 것으로 바꾸어 놓을 것이었습니다. … 그는 기술 창업자였고, 기술 창업자들은 때때로 방향을 전환해야 했습니다. 그것이 실리콘 밸리에서 일이 돌아가는 방식이었습니다. 그는 오픈AI의 설립 원칙 중 일부를 아주 약간만 수정하면 될 것이었습니다.

Altman and Musk had established OpenAI as a nonprofit and promised to share its research and even its patents with other organizations if it looked like they were getting closer to the threshold of superintelligent machines. …

Now as Altman fought to stay alive, he was going to knock down some of those guardrails. The cautious approach he’d started with was going to morph into something more reckless, and doing so would transform the AI field that he and DeepMind had been working in from a slow and largely academic pursuit into something more like the Wild West. … He was a tech founder, and tech founders had to pivot sometimes. That was how it worked in Silicon Valley. He would only need to tweak some of OpenAI’s founding principles - just a little bit.

Act 2. The Leviathans

Chapter 7. Playing Games

Chapter 8. Everything is Awesome

Chapter 9. The Goliath Paradox

Act 3. The Bills

Chapter 10. Size Matters

Chapter 11. Bound to Big Tech

Chapter 12. Myth Busters

Act 4. The Race

Chapter 13. Hello, ChatGPT

Chapter 14. A Vague Sense of Doom

Chapter 15. Checkmate

Chapter 16. In the Shadow of Monopolies